3 research outputs found

    Modeling and applications of the focus cue in conventional digital cameras

    Get PDF
    El enfoque en c谩maras digitales juega un papel fundamental tanto en la calidad de la imagen como en la percepci贸n del entorno. Esta tesis estudia el enfoque en c谩maras digitales convencionales, tales como c谩maras de m贸viles, fotogr谩ficas, webcams y similares. Una revisi贸n rigurosa de los conceptos te贸ricos detras del enfoque en c谩maras convencionales muestra que, a pasar de su utilidad, el modelo cl谩sico del thin lens presenta muchas limitaciones para aplicaci贸n en diferentes problemas relacionados con el foco. En esta tesis, el focus profile es propuesto como una alternativa a conceptos cl谩sicos como la profundidad de campo. Los nuevos conceptos introducidos en esta tesis son aplicados a diferentes problemas relacionados con el foco, tales como la adquisici贸n eficiente de im谩genes, estimaci贸n de profundidad, integraci贸n de elementos perceptuales y fusi贸n de im谩genes. Los resultados experimentales muestran la aplicaci贸n exitosa de los modelos propuestos.The focus of digital cameras plays a fundamental role in both the quality of the acquired images and the perception of the imaged scene. This thesis studies the focus cue in conventional cameras with focus control, such as cellphone cameras, photography cameras, webcams and the like. A deep review of the theoretical concepts behind focus in conventional cameras reveals that, despite its usefulness, the widely known thin lens model has several limitations for solving different focus-related problems in computer vision. In order to overcome these limitations, the focus profile model is introduced as an alternative to classic concepts, such as the near and far limits of the depth-of-field. The new concepts introduced in this dissertation are exploited for solving diverse focus-related problems, such as efficient image capture, depth estimation, visual cue integration and image fusion. The results obtained through an exhaustive experimental validation demonstrate the applicability of the proposed models

    Automated image acquisition system for optical microscope

    No full text
    En este art铆culo se presenta un estudio sobre algunas funciones para la estimaci贸n del grado relativo de enfoque de una imagen. Se propone la modificaci贸n de algunas de las funciones estudiadas para mejorar su desempe帽o y se desarrolla un algoritmo de b煤squeda de foco para llevar a cabo enfoque autom谩tico en microscopio 贸ptico. Se hace la implementaci贸n del algoritmo de b煤squeda en un microscopio con platina motorizada en el eje Z, para obtener una total automatizaci贸n del enfoque. Se describe adem谩s el sistema desarrollado para el control del movimiento de la platina del microscopio en las direcciones X, Y y Z para automatizar el proceso de adquisici贸n de im谩genes de la muestra observada.AbstractIn this paper a study of some functions for measuring the relative degree of focus of images is presented. The modification of some existing functions is proposed to improve their performance and a focus searching algorithm is developed in order to perform autofocusing. The focus searching algorithm is then implemented on an optical microscope with motorized X-Y-Z stage to achieve full automation of the focusing and image acquisition process. The description of the control system for -Y-Z movement of the stage is also presented

    Segmentaci贸n multi-modal de im谩genes RGB-D a partir de mapas de apariencia y de profundidad geom茅trica

    No full text
    Classical image segmentation algorithms exploit the detection of similarities and discontinuities of different visual cues to define and differentiate multiple regions of interest in images. However, due to the high variability and uncertainty of image data, producing accurate results is difficult. In other words, segmentation based just on color is often insufficient for a large percentage of real-life scenes. This work presents a novel multi-modal segmentation strategy that integrates depth and appearance cues from RGB-D images by building a hierarchical region-based representation, i.e., a multi-modal segmentation tree (MM-tree). For this purpose, RGB-D image pairs are represented in a complementary fashion by different segmentation maps. Based on color images, a color segmentation tree (C-tree) is created to obtain segmented and over-segmented maps. From depth images, two independent segmentation maps are derived by computing planar and 3D edge primitives. Then, an iterative region merging process can be used to locally group the previously obtained maps into the MM-tree. Finally, the top emerging MM-tree level coherently integrates the available information from depth and appearance maps. The experiments were conducted using the NYU-Depth V2 RGB-D dataset, which demonstrated the competitive results of our strategy compared to state-of-the-art segmentation methods.聽Specifically, using test images, our method reached average scores of 0.56 in Segmentation Covering and 2.13 in Variation of Information.Los algoritmos cl谩sicos de segmentaci贸n de im谩genes explotan la detecci贸n de similitudes y discontinuidades en diferentes se帽ales visuales, para definir regiones de inter茅s en im谩genes. Sin embargo, debido a la alta variabilidad e incertidumbre en los datos de imagen, se dificulta generar resultados acertados. En otras palabras, la segmentaci贸n basada solo en color a menudo no es suficiente para un gran porcentaje de escenas reales.聽Este trabajo presenta una nueva estrategia de segmentaci贸n multi-modal que integra se帽ales de profundidad y apariencia desde im谩genes RGB-D, por medio de una representaci贸n jer谩rquica basada en regiones, es decir, un 谩rbol de segmentaci贸n multi-modal (MM-tree). Para ello, la imagen RGB-D es descrita de manera complementaria por diferentes mapas de segmentaci贸n. A partir de la imagen de color, se implementa un 谩rbol de segmentaci贸n de color (C-tree) para obtener mapas de segmentaci贸n y sobre-segmentaci贸n. Desde de la imagen de profundidad, se derivan dos mapas de segmentaci贸n independientes, los cuales se basan en el c谩lculo de primitivas de planos y de bordes 3D.聽Seguidamente, un proceso de fusi贸n jer谩rquico de regiones permite agrupar de manera local los mapas obtenidos anteriormente en el MM-tree. Por 煤ltimo, el nivel superior emergente del MM-tree integra coherentemente la informaci贸n disponible en los mapas de profundidad y apariencia. Los experimentos se realizaron con el conjunto de im谩genes RGB-D del NYU-Depth V2, evidenciando resultados competitivos, con respecto a los m茅todos de segmentaci贸n del estado del arte. Espec铆ficamente, en las im谩genes de prueba, se obtuvieron puntajes promedio de 0.56 en la medida de Segmentation Covering y 2.13 en Variation of Information
    corecore